發布時間:2025-09-08 來源:艱難玉成網作者:Daweiing
來源:環球網
【環球網科技綜合報道】9月8日消息,中國科學院自動化研究所宣布,近日,中國科學院自動化研究所李國齊、徐波團隊在發表原創內生複雜性理論係列論文的工作基礎上,與沐曦MetaX合作,打造了類腦脈衝大模型“瞬悉1.0”(SpikingBrain-1.0),在國產千卡GPU算力平台上完成全流程訓練和推理,實現了大模型在超長序列推理上數量級的效率和速度提升,展示了構建國產自主可控的新型非Transformer大模型架構生態的可行性。研究團隊開源了SpikingBrain-1.0-7B模型並開放SpikingBrain-1.0-76B測試網址,同步公開了經工業界大規模驗證的類腦脈衝大模型SpikingBrain-1.0中英文技術報告。
中國科學院自動化研究所表示,“當前,基於Transformer架構的大模型在Scaling law驅動下,通過增加網絡規模、算力資源和數據量提升模型智能水平,但模型的基本計算單元為簡單的點神經元模型,国产AV蜜桃网站將此路徑稱為‘基於外生複雜性’的通用智能實現方法。Transformer架構的固有缺點訓練時開銷隨序列長度呈平方級增長以及推理時顯存占用也隨序列長度線性增加,構成了資源消耗的主要瓶頸,導致其處理超長序列的能力受限。”
研發團隊借鑒大腦神經元內部複雜工作機製提出“基於內生複雜性”的大模型構架方式,打造類腦脈衝大模型“瞬悉1.0”( SpikingBrain-1.0),在理論上建立了脈衝神經元內生動力學與線性注意力模型之間的聯係,揭示了現有線性注意力機製是樹突計算的特殊簡化形式,從而清晰地展示了一條不斷提升模型複雜度和性能的新型可行路徑。研發團隊進而構建並開源了基於脈衝神經元、具有線性(SpikingBrain-1.0-7B)及混合線性複雜度(SpikingBrain-1.0-76B,激活參數量12B)的新型類腦基礎模型,開發了麵向國產GPU(沐曦MetaX曦雲C550)集群高效訓練和推理框架、Triton 算子庫、模型並行策略以及集群通信原語。
據中國科學院自動化研究所介紹,SpikingBrain-1.0在多個核心性能上實現突破,包括極低數據量上的高效訓練,推理效率的數量級提升,國產自主可控類腦大模型生態的構建和基於動態閾值脈衝化的多尺度稀疏機製。
中國科學院自動化研究所表示,這是我國首次提出大規模類腦線性基礎模型架構、並首次在國產GPU算力集群上構建類腦脈衝大模型的訓練和推理框架。提出的模型解決了脈衝驅動限製下的大規模類腦模型性能退化問題,其超長序列處理能力在法律/醫學文檔分析、複雜多智能體模擬、高能粒子物理實驗、DNA序列分析、分子動力學軌跡等超長序列任務建模場景中具有顯著的潛在效率優勢。本次發布的大模型為新一代人工智能發展提供了非Transformer架構的新技術路線,並將啟迪更低功耗的下一代神經形態計算理論和芯片設計。(思瀚)